Schlüsseltechnologien: Neuerungen werden technisch machbar


Schlüsseltechnologien: Neuerungen werden technisch machbar
Schlüsseltechnologien: Neuerungen werden technisch machbar
 
Der erste »Schlüssel«-Technologe ging gebeugt, hatte eine fliehende Stirn und ist seit über zwei Millionen Jahren ausgestorben. Homo habilis war das erste Lebewesen, das Steinwerkzeuge herstellte. Über eine Million Jahre verging, bis der nächste »Technologieschub« den Menschen voranbrachte: Homo erectus verwendete Feuer zum Wärmen und Kochen und um Licht zu erzeugen.
 
Dieser flüchtige Blick ins Prähistorische lässt bereits erkennen, was derjenige meint, der »Schlüsseltechnologie« sagt. Er meint ein neues Verfahren, ein neues Konzept, mit dem bis dahin Unmögliches möglich wird. Eine solche Innovation verändert die Gesellschaft, aus der heraus sie geboren wird. Wer Hammer und Meißel oder gar (viel später) Pfeil und Bogen hat, lebt und handelt anders als ohne diese Dinge. Er kann Materialien wie Stein und Holz bearbeiten, er kann erfolgreicher auf die Jagd gehen. Wer Feuer machen kann, kann auch nachts sehen, kann sein Fleisch braten, kann sich im Winter wärmen. Wer es nicht hat, verkriecht sich nachts in Höhlen, verzehrt rohes Fleisch und muss im Winter frieren. Aber so eindeutig ist es natürlich nicht. Denn wer einen Hammer hat, kann diesen auch gegen die Stirn eines Feindes schlagen, wer Feuer hat, kann auch die Hütte seines Nachbarn anzünden.
 
Und schon zeigt sich die Kehrseite, die immer mit im Spiel ist. Mit den Worten des amerikanischen Kommunikationswissenschaftlers und Medienkritikers Neil Postman: »Sobald man einer Technik den Zugang zu einer Kultur gewährt, spielt sie alles aus, was sie bei sich hat.« Technologische Entwicklungen sind damit immer ein Sowohl-als-auch. Unsere alltägliche Erfahrung und das, was uns die Nachrichtenwelt mitteilt, bestätigen es: Ein Laser schweißt in der Hand eines Augenchirurgen Netzhäute und rettet das Augenlicht, in der Hand von Militärs lenkt dasselbe Licht treffsicher Bomben auf anvisierte Ziele. Die Möglichkeit, Atomkerne zu spalten, kann elektrischen Strom für die zivile Gesellschaft liefern, ist aber zugleich Voraussetzung für das »Manhattan Project«, das zum Bau der ersten Atombombe führte, für den Reaktorunfall von Tschernobyl und für die ungelösten Probleme des radioaktiven Abfalls. Die Computervernetzung schafft über die Datenautobahnen den sofortigen Zugriff auf weltweit verteilte Informationen, aber zugleich transportiert diese Datenflut auch Unmengen an »informa tivem« Müll: Das »Wissensziel« erreicht nur noch der geübte Informationspfadfinder, der sich im Dickicht kleinteiliger Informationshäppchen, stachliger Propagandaränke und klebriger Pornographieblätter nicht einfangen lässt. Und die Auswirkungen der Multimediatechnik auf die Sozialstrukturen unserer Gesellschaft sind unüberschaubar.
 
All diese Beispiele zeigen die Ambivalenz technologischer Entwicklungen, ihre Janusköpfigkeit. Aber dies ist kein alleiniges Kennzeichen menschlicher Erfindungen und Produkte. Auch die Natur ist nicht das Paradies, für das sie zuweilen gehalten wird. »Das ist nur ein spätbürgerlicher Traum nach der Ausrottung der Wölfe in unseren Wäldern«, wie es der Philosoph und Physiker Carl Friedrich von Weizsäcker sagt. Und was sind die Konsequenzen? Uns bleibt nichts anderes übrig, als zu akzeptieren, dass jede Medaille zwei Seiten hat, dass Licht nicht ohne Schatten, dass das Einfache nicht ohne das Komplizierte zu haben ist. Aber — und dieses »Aber« ist groß zu schreiben — daraus folgt längst kein Fatalismus. Forcieren wir das Bild der Medaille oder Münze mit ihren zwei Seiten. Auf welche Seite fällt sie, nachdem sie in die Luft geworfen wurde? Ohne weiteres Zutun ist das natürlich vorher nicht entscheidbar — jede der beiden Möglichkeiten ist gleich wahrscheinlich. Doch wer hat gesagt, dass wir nichts »zutun« dürfen? Also manipulieren wir die Münze ein wenig. Präparieren wir sie so, dass die eine Seite etwas schwerer als die andere ist, vielleicht konstruieren wir die Münze aus zwei verschiedenen Materialien. Und schon ist die Zukunft nicht mehr so unvorhersagbar — wir gewinnen schlicht häufiger, wenn wir auf die leichtere Seite wetten.
 
 Türen und Schlüssel
 
Von Schlüsseltechnologien erhoffen wir uns, dass sie uns zur Schokoladenseite der Zukunft führen. Wir müssen den Energiehunger einer rasant wachsenden Menschheit stillen — und erhoffen uns die Lösung aus neuen Techniken der Energiewandlung. Wir müssen eben diese Menschheit ernähren und medizinisch versorgen — und erhoffen uns positive Wendungen durch sinnvoll angewandte Gentechnik. Wir müssen eine lebensfähige Umwelt ermöglichen — und erhoffen uns nachhaltige Praktiken durch neue und intelligente Umwelttechnologien. Unter diesen Vorzeichen sind Schlüsseltechnologien global und langfristig zu verstehen. Aber sie werden auch viel profaner gedeutet: als die ökonomische Voraussetzung für Zukunftsmärkte. Ein Wirtschaftsunternehmen, das auf Schlüsseltechnologien setzt und in diese investiert, hat selbstverständlich auch mit diesem Instrument vor, die Unternehmensgewinne zu maximieren — und dies nicht irgendwann, sondern möglichst kurzfristig. Nur werden die Märkte (für die meisten) schlechthin öd und leer sein, wenn die langfristigen Ziele nicht erreicht werden. Ob beides zusammengehen kann, die globale Verantwortung und die partikulären Interessen, wird sich erst herausstellen.
 
Es liegt in der Natur des Begriffes, dass Schlüsseltechnologien in der Gegenwart nur Absichtserklärungen sein können, das Werturteil wird erst später gefällt. Ob eine technologische Entwicklung einen »Schlüssel« bedeutet, können wir erst wissen, wenn die Tür geöffnet wurde, wie ein Blick in die Vergangenheit der technologischen Zukunftsvorhersagen zeigt. So glaubten viele Forscher in den Siebzigerjahren daran, dass es bald möglich sein würde, künstliche Intelligenz zu schaffen, also Computer zu konstruieren, die so arbeiten, als besäßen sie ein menschliches Gehirn. Solche Maschinen könnten die Arbeitswelt revolutionieren. Heute ist von dieser Euphorie wenig oder nur bei wenigen etwas geblieben. Im Mittel sind wir schon froh, wenn unsere Expertensysteme auf ihren begrenzten Feldern sinnvoll arbeiten. Aus derselben Zeit stammen die Vorstellungen, das künstliche Herz werde von den Bioingenieuren bald konstruiert. Nichts ist daraus geworden, zu kompliziert sind die menschliche Biologie und Chemie; Abstoßungsreaktionen des Körpers gegen die implantierten Kunstprodukte konnten nicht überwunden werden. Ein anderes Beispiel ist die kontrollierte Kernfusion, das gezähmte Sonnenfeuer »auf Erden«, das für das beginnende 21. Jahrhundert prognostiziert wurde. Der Zeithorizont heutiger Prognosen hierzu ist — sofern er überhaupt erkennbar ist — viel weiter entfernt.
 
Die Zukunft ist also offen, auch wenn der Begriff »Schlüsseltechnologie« etwas anderes suggerieren mag. Ein Schlüssel passt in ein Schloss, mit ihm lässt sich eine Tür öffnen. So weit ja, nur: Wir wissen nicht, was für ein Raum sich hinter der Tür verbirgt und ob es in dem Raum weitere Türen für weitere Räume gibt. Sind wir etwa irrational, wenn wir trotzdem daran glauben, dass wir die Welt gestalten können? Nein, wir wollten nur die Technophilen etwas verunsichern, die glauben, die geworfene Münze fiele immer auf die gewünschte Seite. Und was halten wir den Technophoben entgegen, die immer die dunkle Seite der Münze kommen sehen? Ihnen sagen wir, dass wir nicht machtlos sind. Wir können die Zukunft zwar nicht eindeutig vorherbestimmen. Aber wir können im Ungefähren die Richtung vorgeben, in die wir steuern wollen. Wir können versuchen, all die Münzen in unseren Händen ein wenig zu präparieren, sodass die Chancen für die »richtigen Seiten« steigen.
 
 Schlüsselsuche
 
Wir sind also auf der Suche — auf der Suche nach einem technisch machbaren, einem gesellschaftlich verträglichen, einem humanen Weg in die Zukunft. Was heute in den Laboratorien und Experimentierhallen, in stillen Kammern und öffentlichen Sälen erprobt und vermessen, gedacht, berechnet und diskutiert wird, klingt vielleicht in manchen Ohren als Geheimsprache einer Zunft, die in luftig-nebligen Höhen ihren Spieltrieben nachgibt und sich unerreichbar von der Wirklichkeit entfernt hat, ist aber zusammengenommen nichts anderes als der Versuch, die Zukunft mit den Mitteln von Wissenschaft und Technik zu gestalten oder eine lebenswerte Zukunft überhaupt erst zu ermöglichen. Wer vertrackte Schlösser öffnen will, muss zuweilen an Schlüsseln mit fantastisch anmutenden Bärten feilen. Der wissenschaftliche Fortschritt erscheint in diesem Licht — das durch das Schlüsselloch dringt — ganz bodenständig als Mittel zum Zweck.
 
Sehen wir uns, um konkreter zu werden, im Folgenden einige »Werkstätten« der Wissenschaft an und lassen uns eine Auswahl der Schlüsselrohlinge, die noch in den Werkbänken eingespannt sind, zeigen. In der ersten Werkhalle unseres Kurzbesuchs lodern mehrere Feuer, manche qualmen, manche flackern auf und verlöschen immer wieder, manche brennen still vor sich hin; es ist heiß und sonnenhell: Energie ist hier allgegenwärtig. Zum Problem wird sie, soll sie eine nach Milliarden zählende Menschheit versorgen, denn dann lässt sie sich nur noch in der Menge Hunderter Exajoule (eine Milliarde mal eine Milliarde Joule) messen. Auch in der zweiten Halle begegnen uns große Zahlen. Allerdings ist es hier eher kühl: Die Rechenmaschinen, welche in Bits zerlegte Daten in aberwitziger Geschwindigkeit hin und her schaufeln, miteinander verknüpfen und manipulieren, vertragen keine Hitze, schon gar nicht in ihrem Innern. Welten werden hier berechnet, simuliert und erzeugt, die Zukunft prognostiziert und virtuell vorgespielt. Dann die dritte Halle: Hier scheinen wir in die gewohnte Welt zurückzukehren. Pflanzen werden gezüchtet, Medikamente und Pharmazeutika entwickelt und erprobt, Krankheitsdiagnosen am Menschen gestellt und die Krankheiten gelindert oder gar geheilt. Aber die Umgangssprache in dieser Halle verwirrt, besteht sie doch aus nicht mehr als den vier Symbolen A, C, G und T des genetischen Codes. Schließlich die vierte Halle: Hier sehen wir zuerst — nichts. Die Technik spielt sich im Verborgenen ab, im Mikrokosmos. Erst als man uns starke Lupen reicht, erkennen wir die winzigen Strukturen und Bauelemente der technologischen Werkzeugkästen, die mit der Miniaturisierung immer spezialisierter und effizienter werden.
 
Unser »Werkstattkurs« nimmt also die Richtung abnehmender Zehnerpotenzen: Von der Energie, die sich in Exajoule messen lässt (1018), über die Computer, die mit Datenmengen von Giga- und Terabit rechnen (109, 1012), zum Menschen mit seinem »Alltagsmaßstab« (101) und schließlich in den Mikrokosmos mit seinen atomaren Abständen (10-9).
 
 Exa: Zwänge und Visionen in Joule
 
Das »energetische Verhältnis« zwischen einem Menschen in Nordamerika und einem in China liegt am Ende des 20. Jahrhunderts bei rund zehn zu eins — ein Nordamerikaner verbraucht pro Jahr die zehnfache Menge an Primärenergie im Vergleich zu einem Chinesen. Dieses Verhältnis im Energieverbrauch pro Kopf steigt gar für das Vergleichspaar Nordamerika/Afrika auf zwanzig zu eins oder für Nordamerika/Südasien auf dreißig zu eins. Auf unserem Planeten ist der Energieverbrauch höchst ungleich verteilt: Die derzeit hoch industrialisierten Länder, in denen ein Viertel der Weltbevölkerung lebt, verbrauchen zwei Drittel der weltweit verfügbaren Energie. Oder in Zahlen: 245 von 390 Exajoule (»Exa« steht für »zehn hoch 18«) beziehungsweise 8,4 zu 13,3 Milliarden Tonnen Steinkohleeinheiten.
 
Der Energiebedarf der Menschheit wird in den kommenden Jahrzehnten synchron zum Bevölkerungswachstum und zur steigenden Industrialisierung in den jetzt noch armen Ländern mitwachsen. Einige Prognosen sehen bereits im Jahr 2030 — bei den dann vielleicht acht oder neun Milliarden Menschen — einen globalen Bedarf von rund 800 Exajoule, also eine Verdopplung gegenüber dem Momentanwert. Diese beängstigend große Zahl weist auf ein enormes Problem hin: Denn es geht nicht nur darum, eine solch gigantische Energiemenge überhaupt zur Verfügung zu stellen, sondern darüber hinaus auch darum, dies so zu tun, dass die Umwelt und wir in ihr es überleben.
 
Den Löwenanteil an den gegenwärtig 390 Exajoule verbrauchter Energie pro Jahr übernehmen die fossilen Energieträger Kohle, Erdöl und Erdgas. Sie decken rund drei Viertel des weltweiten Energiebedarfs. Aller Voraussicht nach werden die fossilen Energieträger den Energiemix auch noch in den kommenden Jahrzehnten dominieren. Doch den »eigentlichen Preis« für diese Energie zahlt (zunächst) nicht der Verbraucher, sondern die Umwelt: Saurer Niederschlag und Smog in Ballungsgebieten sind dabei nur die offensichtlichen Schäden, die Belastung der Atmosphäre hingegen mit den freigesetzten klimarelevanten Gasen — unter ihnen vor allem Kohlendioxid — könnte sich langfristig zu einer Katastrophe entwickeln (Stichwort: anthropogener Treibhauseffekt). Verursacht durch den Menschen, gelangen knapp sechs Gigatonnen (Milliarden Tonnen) Kohlenstoff in Form von Kohlendioxid pro Jahr in die Atmosphäre. Ein steigender Kohlendioxidgehalt greift dabei massiv in den globalen Wärmehaushalt ein, da das Kohlendioxid die von der Erde abgestrahlte Wärme einfängt und sie nahe der Oberfläche festhält. In einigen Klimaszenarien wird prognostiziert, dass die globale Erwärmung das Erdklima weit aus seiner natürlichen Schwankungsbreite hinaustreiben und die Lebensbedingungen auf dem Planeten dramatisch verändern könnte.
 
Solche Schreckensszenarien zwingen zum energetischen Umdenken. Aber auch wenn das Glück auf unserer Seite sein sollte und sich diese Szenarien nicht einlösen, sind Kohle, Öl und Erdgas keine Zukunftsenergien — die Ressourcen sind (auch wenn sich die Experten über die genauen Reichweiten nicht einig sind) begrenzt. Hier nur eine Zahl: Die heute bekannten und auch abbaubaren Erdölfelder werden bei nicht steigendem Jahresverbrauch wohl in weniger als 50 Jahren erschöpft sein. Der Weg muss also unweigerlich weg von den fossilen Brennstoffen führen, auch wenn es uns gelingt, die Effizienz der Kraftwerke zu steigern und wir die Verbrennungstechniken auf eine Umweltschonung hin optimieren. Wir stehen an einer energetischen Wendemarke, ohne allerdings zu überblicken, wohin wir uns genau zu wenden haben oder wohin wir uns überhaupt wenden können. Das globale Muster der künftigen Energieversorgung, das wir wählen können oder »wählen müssen«, ist unbekannt. Das Einfachste der Zukunftsszenarien, das mit dem Motto »Weiter wie bisher« beschrieben werden kann, hätte — so es sich einlöst — gute Chancen, das letzte Weltszenario überhaupt zu werden, weil nach seinem Eintreten niemand mehr da wäre, der noch Szenarien aufstellen könnte. Also müssen Alternativszenarien entworfen und verfolgt werden, auch wenn sie gegen die »Trägheitsgesetze« gegenwärtiger Energietechnik (technologische Trägheit), eines reinen Ökonomismus (wirtschaftliche Trägheit) oder eines politischen Opportunismus (politische, gesellschaftliche Trägheit) ankämpfen müssen. Die Suche nach der Energiezukunft muss mehrgleisig geschehen. Zu viele Unbekannte sind im »Spiel«, als dass eine eindeutige Strategie auszumachen wäre.
 
Das Lernziel heißt, Energie zu sparen: Autos müssen konstruiert werden, die mit weit weniger Benzin auskommen; Wohnhäuser und Büros müssen so intelligent gebaut werden, dass sie die Sonnenstrahlung als kostenlose Heizung nutzen; elektrische Geräte sind so zu optimieren, dass sie ein Minimum an elektrischer Leistung verbrauchen; die Wirkungsgrade von Kraftwerken und allen industriellen Prozessen müssen an die theoretischen Grenzen getrieben werden. Das Verbindende zwischen den Elementen dieser längst nicht vollständigen Liste ist der Imperativ »Steigere die Effizienz!«. Die Effektivität Energie verbrauchender Prozesse durch eine ausgefeiltere Technik zu steigern, kann den Energiehunger zwar verringern, stillen aber kann sie ihn nicht.
 
Wir müssen vor allen Dingen in Energiequellen für das postfossile Zeitalter investieren. Alle Energiequellen, die unter dem Sammelbegriff »regenerativ« zusammengefasst werden, gehören dazu. Zwei dieser Quellen, nämlich das Verbrennen von Biomasse und die Turbinen antreibende Wasserkraft, tragen bereits heute mit 40 beziehungsweise 25 Exajoule pro Jahr zum Energiemix bei. Die Steigerungsraten sind hier allerdings sehr begrenzt. Anders dagegen sieht es bei Wind und Sonne aus: Noch ist der globale Strombeitrag aus Windrädern und photovoltaischen Solaranlagen nahezu verschwindend gering. Doch die Potenziale sind gewaltig (allein die jährliche Solarstrahlung auf die irdischen Wüstenflächen beträgt 200 000 Exajoule) auch wenn sie heute — vorwiegend aus wirtschaftlichen Gründen — noch nicht genutzt werden; technisch ist längst viel mehr möglich. Ebenfalls zu den »Regenerativen« ist der Wasserstoff zu zählen: Er ließe sich durch eine solargetriebene Elektrolyse von Wasser gewinnen und später in hocheffizienten Brennstoffzellen rückverstromen. Das umweltfreundliche Abfallprodukt: Wasser.
 
Zwei gänzlich andere Optionen sind die nukleargetriebenen Energietechniken: die Kernspaltung und die Kernfusion. Weltweit arbeiten derzeit etwas mehr als 400 Spaltungsreaktoren mit einer elektrischen Leistung von zusammengenommen etwas mehr als 400 Gigawatt, womit rund 17 Prozent des weltweiten Strombedarfs, damit also sechs Prozent des weltweiten Primärenergieverbrauchs, gedeckt werden. Auf der »Positivseite« der Kernspaltung stehen ihre Energiebilanz (keine andere Technik wandelt so viel Energie aus so wenig Ausgangsmaterial um) und ihre aktuelle Umweltbilanz (die Energie wird ohne Kohlendioxidausstoß gewonnen). Auf der »Negativseite« dagegen stehen die Risiken nuklearer Unfälle und die Lagerung des anfallenden radioaktiven Mülls. Da allerdings kein Energieszenario für das 21. Jahrhundert ohne Kernspaltung auskommt, muss das technologische Bestreben dahin gehen, die Sicherheit dieser Kraftwerke weiter zu erhöhen.
 
Eine andere Kerntechnik ist die Fusion. Statt schwere Atome zu spalten, werden hier leichte Atome zusammengefügt. Die Energiebilanz fällt noch günstiger als bei der Kernspaltung aus, und Ressourcenprobleme treten nicht auf. Der Prozess ist völlig alltäglich — in unserer Sonne. Ihn hingegen auf der Erde nachzuahmen und dabei nutzbare Energie zu gewinnen, ist noch nicht gelungen. Der jetzt geplante internationale thermonukleare Reaktor soll zeigen, ob die kontrollierte Fusion überhaupt machbar ist. Wenn die physikalischen und technologischen Probleme allerdings lösbar sind, dann wird die Fusion die mächtigste der irdischen Energiequellen sein, doch das weder für uns noch für unsere Kinder, sondern frühestens für unsere Enkel oder gar erst Urenkel.
 
Sicher ist, dass ohne den Schlüssel »Energie« eine wünschenswerte Zukunft nicht stattfindet. Wie jedoch der Energiemix beschaffen sein wird, ist völlig unklar. Es gibt derzeit keinen Energiekonsens, weder auf einzelstaatlicher Ebene geschweige denn global. Der Lösungsversuch kann daher nur lauten, alle Optionen so weit wie möglich weiterzuentwickeln, um lebensbedrohliche Sackgassen zu vermeiden.
 
 Giga und Tera: Welten aus Flops
 
Ende der Vierzigerjahre prognostizierten Wissenschaftler der Harvard University im amerikanischen Cambridge, Massachusetts, den zukünftigen Bedarf der Vereinigten Staaten an elektronischen Digitalrechnern: Sechs Stück, so die Aussage, würden vollauf genügen. Die Experten lagen — aus heutiger Sicht — falsch, aber durchaus auf der Höhe des Zeitwissens. Computer damals: Das waren auf einige wenige Aufgaben spezialisierte Ungetüme, die aus Abertausenden von Vakuumröhren bestanden (von denen täglich einige durchbrannten), mehrere zehn Tonnen wogen und weit über 100 Kilowatt Strom verbrauchten. Dagegen Computer heute: Sie sagen als Höchstleistungsrechner das Wetter voraus, sie berechnen die Zustände und Bewegungen von Molekülen, Atomen und Elementarteilchen, sie werten in Echtzeit medizinische Daten während einer Operation aus, sie regeln als Schaltzentralen den weltweiten Telefonverkehr, sie steuern den maschinellen Ablauf in der industriellen Produktion, sie verarbeiten als Personalcomputer Texte und Grafiken auf nahezu jedem Büroschreibtisch, und sie dienen in immer mehr privaten Haushalten als Multimediamaschinen. Computer sind das Sinnbild unserer Informationsgesellschaft.
 
Computer fahren links — immer auf der Überholspur —, denn die Geschichte der Rechenmaschinen ist zugleich eine Geschichte permanenter Leistungssteigerung. Jede neue Computergeneration schlägt ihre Vorfahren um Längen; immer mehr Daten können in immer kürzeren Zeiten verarbeitet werden; die Geschwindigkeit, in der die Prozessoren Zahlen miteinander verknüpfen, etwa multiplizieren, überschreitet längst die menschliche Vorstellungskraft: die »Gleitkommaoperationen pro Sekunde«, die »floating point operations per second« (Flops), benötigen heute schon Vorsilben wie Giga (Milliarde) und demnächst Tera (Billion). Und mit diesen schon aberwitzigen Geschwindigkeiten rechnet ein einzel- ner Prozessor, die zentrale Verarbeitungsein- heit im Inneren der Maschine. In herkömmlicher Bauart besitzt ein Computer genau einen dieser Prozessoren und führt die Rechenoperationen eine nach der anderen schrittweise aus — der Computer ist ein serieller Rechner. Dieses Konzept wird deutlich verbessert, indem der Prozessor in seiner Funktionsweise ein Fließband nachahmt, sodass ein ganzes Feld von Zahlen in einem Rutsch verarbeitet wird — der Computer ist jetzt ein Vektorrechner. Aber damit sind die Möglichkeiten noch nicht erschöpft. Der Computer braucht ja nicht nur auf einen Prozessor zurückzugreifen, er kann auch mehrere davon unabhängig und zeitgleich arbeiten lassen — der Computer ist ein Parallelrechner geworden. Je nach Aufgabenstellung — nicht jedes Problem lässt sich mathematisch »parallelisieren« — wird eine dieser Rechnerarchitekturen die optimale Wahl sein.
 
Dass irgendein Rechner der Zukunft alle anfallenden wissenschaftlich-technischen Probleme in überschaubarer Zeit wird lösen können, steht nicht zu hoffen (oder zu befürchten). Bisher schafften es die Wissenschaftler stets, die ihnen zur Verfügung stehenden Maschinen innerhalb kürzester Zeit bis an die Grenzen zu belasten. Denn: Mit jeder, egal welcher Rechengeschwindigkeit lassen sich nur Ausschnitte dessen simulieren, was in der Natur geschieht, sei es, weil die »natürlichen« Verhältnisse viel zu kompliziert sind, um sie realistisch in ein mathematisches Modell umzuformen, sei es, weil die Zahl der beteiligten Teilchen jede nur denkbare Rechnerkapazität sprengt. Wenn etwa Vielteilchenphysiker anfangen zu rechnen, so müssen sie meistens berücksichtigen, dass jedes Teilchen eine Wirkung auf alle anderen Teilchen im System ausüben kann — und schon wächst der Rechenaufwand viel stärker als nur linear mit der Teilchenzahl. Ein paar Teilchen mehr können also rasch die Rechnerkapazität sprengen.
 
Für die Art und Weise, in der die Supercomputer ihre Aufgaben lösen, haben die Computerwissenschaftler einen martialischen, aber treffenden Ausdruck: Die Rechner arbeiten mit »brute force«, lassen also die (Prozessor-)Muskeln spielen und Köpfchen vermissen; allein mit schierer Rechengeschwindigkeit beschreiten sie den Lösungsweg. Wenn etwa eine Maschine wie »Deep Blue« den Schachweltmeister schlägt, ist dies nicht einer überragenden Intelligenz oder Kreativität der Chips zu verdanken, sondern einzig der großen Zahl vorausberechneter Spielzüge.
 
Ob sich allerdings Schachgroßmeister (und nicht nur diese) auch in Zukunft damit trösten können, lediglich einer »brute force« zu unterliegen, ist ungewiss. Die »künstliche Intelligenz« (KI) könnte selbst diesen kleinen Trost zunichte machen, falls es ihr gelingen sollte, den gewaltigen Anspruch einzulösen, Computer dazu zu bringen, sich »menschlich« zu verhalten. Zwar sind die Erfolge der KI-Forscher, gemessen vor allem an ihren eigenen, in den Sechziger- und Siebzigerjahren lautstark propagierten Zielen, bescheiden; die anfängliche Euphorie ist bei vielen in Ernüchterung umgeschlagen. Aber Fortschritte auf dem Gebiet der künstlichen Intelligenz sind unübersehbar, seitdem die Forscher nicht nur versuchen, ihren Maschinen Spezial-, sondern vor allem auch Alltagswissen beizubringen. Denn bevor eine Maschine sich menschlich verhalten kann, muss sie eine Ahnung der kulturellen und gesellschaftlichen Einflüsse haben, unter denen menschliches Handeln stattfindet, muss sie mit fehlerhaften und unvollständigen Eingangsdaten operieren können und muss sie die Kontexte erkennen, welche eine Handlung, auch eine sprachliche, beeinflussen. Sollte die KI-Software diese Aspekte, auf die unser Hirn wie selbstverständlich und ohne dass wir uns dessen bewusst werden, aufbaut, tatsächlich eines Tages »verinnerlicht« haben, sind Maschinen mit weit mehr als »brute force« denkbar. Solche Maschinen könnten dann den Turingtest bestehen, bei dem ein Mensch nicht mehr entscheiden kann, ob er mit einem Computer oder einem wahrhaften Menschen kommuniziert.
 
Die KI ist allerdings nicht der einzige Bereich der Computerwissenschaft, der unser Verständnis von und unser Verhältnis zu Computern (und möglicherweise zu uns selbst) revolutionieren könnte. Während die KI versucht, in ihren Maschinen das menschliche Denken nachzubilden, indem sie entsprechende Lernprogramme für ihre Rechner kreiert, könnte eine solche Revolution auch aus ganz anderer Richtung kommen. In manchen Computerlabors und in abgezirkelten Bereichen der Datennetze finden Evolutionen statt: »Künstliches Leben« (KL) soll hier geschaffen werden — kein Leben aus Fleisch und Blut, auf Kohlenstoffbasis, so wie wir es einzig kennen, sondern ein »Leben« aus nichts als Information, geschrieben im Silicium der Computerchips. Die »Individuen« können kleine Programme oder einzelne Felder auf einer Speicherplatte sein. Mitgegeben zum »Start ins Leben« werden ihnen nur einige wenige grundlegende Regeln, die an Selektion, Mutation und Reproduktion erinnern, also an die bestimmenden Kräfte des biologischen Lebens. Unter einem vorgegebenen (oder sich dynamisch entwickelnden) Selektionsdruck verändert sich die Anfangspopulation im Takt des Rechners, mit jeder neuen Generation. Aus anfänglichen »informationellen Ursuppen« können so geordnete Informationsstrukturen entstehen.
 
Zwar wirken einige dieser KL-Strukturen eher spielerisch, wenn etwa Wolken von Dreiecken im Stil eines Vogelschwarms über den Computerbildschirm ziehen. Doch das Erstaunliche: Kein Computerwissenschaftler hat dieses Schwarmverhalten explizit programmiert. Es ist vielmehr »evolutionär gewachsen«. Nicht minder erstaunlich sind Programme, die mathematische Optimierungsprobleme perfekt meistern, ohne dass ein Programmierer den Lösungsweg eingegeben hätte: Evolutionäre Algorithmen arbeiten mit einer Vielzahl, mit Populationen von möglichen Lösungen, wobei sich die optimale durch einen Selektionsdruck im Lauf von Generationen von selbst einstellt. Konzepte des »künstlichen Lebens« finden sich darüber hinaus auch in der Konstruktion von lernfähigen Robotern oder in einer Spielart moderner Heinzelmännchen, den Softwareagenten, wieder, welche die »Informationsbedürfnisse« ihres »Users« kennen und stellvertretend für ihn den Dschungel der Datennetze durchforsten.
 
Noch mutet es eher als fantastisches oder überspanntes Geplauder an, wenn auf den Tagungen der KL-Forscher bereits Vorträge zu einer Ethik und den philosophischen Implikationen oder den gesellschaftlichen und juristischen Auswirkungen des künstlichen Lebens zu hören sind. Doch heutzutage weiß niemand, welcher moderne Golem aus den Computernetzen entspringen mag. So könnte es sich als weitsichtig erweisen, dem künstlichen Leben von morgen bereits heute Grenzen zu ziehen, um vor bösen Überraschungen gefeit zu sein.
 
 Geno und Phäno: Variationen in A, C, G, T
 
Weniger als zwei Prozent Unterschied haben wir es zu verdanken, dass wir uns nicht von Ast zu Ast schwingen, weder Blätter noch Bananen in Mengen verzehren und uns nicht gegenseitig das Fell säubern. Diese scheinbar kleine Differenz im genetischen Code zwischen dem Schimpansen und dem Menschen (ausgezählt an Hämoglobinsequenzen) sorgt vielmehr dafür, dass wir nicht ausschließlich im Hier und Jetzt leben, sondern die Vergangenheit im Kopf mit uns herumtragen und uns um die Zukunft sorgen. Die Gegenwart wird uns zur Schaltzentrale, in der die Weichen für das Kommende gestellt werden sollen. Und mittlerweile haben wir einen der mächtigsten Hebel in dieser Schaltzentrale nicht nur entdeckt, sondern können ihn auch bewegen: die Gene.
 
Erst seit den Arbeiten von Oswald Theodore Avery aus dem Jahr 1944 wissen wir um die Bedeutung der DNA, der »deoxyribonucleic acid«, des materiellen Trägers der Erbsubstanz; erst seit 1953 kennen wir dank James Watson und Francis Crick die DNA-Struktur als Doppelhelix und wissen seit 1967 definitiv, dass und wie der DNA-Code den Bauplan für alle Proteine und mithin für das Leben enthält. In der kurzen Zeitspanne bis heute haben wir dieses Wissen »technisiert« und damit das Genzeitalter eingeläutet. Mit dem Schalthebel Gentechnik können wir dabei weit in die Strukturen des Lebendigen eingreifen — denn die evolutionär gewachsenen Gene allen Lebens, vom Bakterium über Pflanzen und Tiere bis hin zum Menschen, werden zum »genetischen Material«, mit dem sich »arbeiten«, das sich verändern lässt. Mit diesem Griff in die »Schatzkiste« aller natürlichen Erbinformationen werden wir unsere Zukunft so nachhaltig wie bisher mit keiner anderen Technik beeinflussen können.
 
Das erste gentechnische Experiment führten im Jahr 1973 Molekularbiologen um Stanley Cohen an der Stanford-University durch. Sie pflanzten dem Bakterium Escherichia coli ein Stück »fremder« DNA von einem anderen Bakterium ein, das gegen zwei Antibiotika resistent war. Durch diesen DNA-Transfer enthielt nun auch das neue, »rekombinante« Bakterium die Information, ein »fremdes« Protein, das bisher nicht im Genplan enthalten war, zur Antibiotika-Abwehr herzustellen. Das Bakterium wurde so zur künstlich-natürlichen Proteinfabrik. Was in diesem grundlegenden Experiment zwischen Bakterium und Bakterium funktionierte, weitete sich in der Folgezeit aus. Da der DNA-Code bei allen Lebewesen in der gleichen Sprache, nämlich einer Abfolge der Basen Adenin (A), Cytosin (C), Guanin (G) und Thymin (T), geschrieben ist, bestehen zumindest prinzipiell keine genetischen »Sprachbarrieren« zwischen den Spezies. So konnten die Forscher auch Gene von Pflanzen und Tieren in Bakterien übertragen und schließlich auch vom Menschen: Ende der Siebzigerjahre produzierten die ersten Bakterien menschliches Insulin; 1982 wurde gentechnisch hergestelltes Humaninsulin als Medikament in den Vereinigten Staaten zugelassen.
 
Die Verbindung der Gen- und Biotechnologie mit der Medizin ist äußerst innig, etwa auf dem pharmazeutischen Sektor der Medikamente und Impfstoffe. Hier kann die Gentechnik Arzneimittel und Therapien verbessern helfen; Impfstoffe lassen sich produzieren, die keinerlei Ansteckungsgefahr mehr beinhalten, da sie ohne den eigentlichen Krankheitserreger auskommen und nur noch dessen äußere Hülle dem menschlichen Immunsystem präsentieren. Für die Pharmazie erscheint die Gentechnik daher als nützlicher Helfer, als Qualitätsverbesserer. Doch ihr revolutionäres Potenzial zeigt die Gentechnik erst in anderen Bereichen: der Gentherapie und der Gendiagnostik. Ist eine Krankheit als genetisch bedingt erkannt, so versucht die Gentherapie, sie direkt an ihrem Entstehungsort zu heilen oder zu lindern — das defekte Gen wird in vorher entnommenen Körperzellen gegen ein gesundes Gen ausgetauscht, und diese »therapierten« Zellen werden in den Körper rückinjiziert. Glückt die Therapie, so dominieren die veränderten Zellen die Körperfunktionen, und der Erbdefekt in den übrigen Zellen wird überkompensiert. Auch wenn auf diesem Weg noch kein Patient vollständig geheilt wurde — die Zahl der gentherapeutischen Studien beläuft sich bisher erst auf einige Hundert —, so bahnt sich doch mit der Gentherapie in den Augen vieler Mediziner, nach der Verbesserung der öffentlichen Hygiene, der Erfindung der Anästhesie und der Einführung von Impfstoffen und Antibiotika, eine vierte medizinische Revolution an.
 
Immer mehr Krankheiten werden aus dem Blickwinkel der Gene betrachtet. Je weiter das menschliche Erbgut entschlüsselt wird, umso tiefer und breiter wird unser Wissen um die genetischen Grundlagen vieler Erkrankungen — das »Human Genome Project«, das unsere genetische Landkarte vollständig kartierten soll, wird etwa im Jahr 2005 abgeschlossen sein. Die Gentherapie wird diese Daten nutzen. Aber auch die Gendiagnose, die bisher auf ein paar Hundert Erbdefekte beschränkt ist, wird sich enorm erweitern: Unzählige weitere Erbkrankheiten werden sich diagnostizieren lassen können, wenn sie erst bis hinunter in die molekularen Details der genetischen Defekte erkannt sind.
 
Da die Gendiagnose Erbkrankheiten erkennt, bevor sie überhaupt ausgebrochen sind, darf eine entscheidende Konsequenz nicht übersehen werden: Der Mensch bekommt so ein Wissen über seine eigene Zukunft und auch über die Zukunft seiner noch ungeborenen Kinder, wenn auch nur in Form von Wahrscheinlichkeitsaussagen, in die Hand. Die Gefahr, aus der Kenntnis der Gene eine Bewertung des Menschen abzuleiten, liegt hier auf der Hand. Ein unverantwortlicher Umgang mit dem genetischen Fingerabdruck könnte eine »genetische Kastengesellschaft« heraufbeschwören und Aldous Huxleys Schreckensvision einer »brave new world« einlösen.
 
An dieser Stelle wird besonders deutlich, dass das Genzeitalter nicht nur Techniken und Methoden entwerfen darf. Es muss zugleich eine Ethik aufstellen, die verbindlich das »Können« in ein »Sollen« und »Dürfen« einbettet. Gentechnik muss mit ethischer Verantwortung verkoppelt sein und den kantschen Imperativ wörtlich nehmen.
 
Eben diese Verantwortung ist es zugleich, welche die gentechnischen Methoden auf einem anderen Gebiet, trotz aller ernst zu nehmenden Risiken, wohl oder übel mit einem »Müssen« verknüpft: der Ernährung der Weltbevölkerung. Zwei Kurven markieren, weil ihr Abstand voneinander beängstigend wächst, die globale Krise: Während die Bevölkerungszahl auf unserem Planeten exponentiell nach oben ausschlägt, schafft die Weltnahrungsmittelproduktion relativ dazu nur einen schwachen Anstieg. Der erzielbare Ertrag pro Fläche ist mit den konventionellen Methoden nahezu ausgereizt. Überdies fällt jährlich bei den sechs Hauptkulturpflanzen rund ein Drittel der Welternte Insekten, Krankheiten oder Unkräutern zum Opfer. Die »grüne Gentechnik« kann hier helfen, die Nutzpflanzen für den landwirtschaftlichen Anbau zu optimieren: Neue Hochleistungssorten ließen sich gentechnisch züchten; Resistenzen gegen Schadinsekten oder Viren, gegen Trockenheit oder Salz, gegen Kälte oder Wind und gegen Pflanzenschutzmittel ließen sich gezielt in den genetischen Konstruktionsplan der Pflanze einbauen. Eine intensive und gleichzeitig ökologisch weniger belastende Landwirtschaft könnte mit solchen transgenen Pflanzen erreicht werden.
 
Die Züchtungsgeschichte aller für den Menschen wichtigen Nutzpflanzen ist lang. Das Ziel ist stets eine Optimierung von Ertrag und Qualität. Der Eingriff in das pflanzliche Erbgut, der Transfer von Genen, ist dabei keine grundsätzlich neue Züchtungstechnik. Auch die konventionelle Pflanzenzucht überträgt durch Kreuzung und Rückkreuzung, wenn auch »blind«, Gene. Die Gentechnik überträgt hingegen die Gene gezielt und beschleunigt den gesamten Züchtungsvorgang, der auf klassischem Weg — von der Auswahl geeigneten Ausgangsmaterials im Zuchtgarten bis zur Saatgutproduktion und der Verfügbarkeit für den Landwirt — mehr als zehn Jahre betragen kann.
 
Die Gentechnik allein wird das Problem des Nahrungsmangels in der Welt zwar nicht lösen können. Die wie auch immer produzierten Nahrungsmittel müssen auch dahin gebracht werden, wo der Hunger am größten ist — die Nahrung muss verteilt werden. Aber gentechnische Methoden können durchaus die Erträge in der Landwirtschaft erhöhen und gleichzeitig die Umweltbelastungen durch Düngung und Pflanzenschutzmittel minimieren. Sicher ist die Gentechnik kein Allheilmittel und noch nicht einmal nebenwirkungsfrei. Aber es ist mehr als fraglich, ob wir es uns leisten können, auf diesen Teilrettungsversuch zu verzichten.
 
 Mikro und Nano: im mechanischen und elektronischen Liliput
 
Die Werkzeuge unserer Zeit entziehen sich der Anschauung. Und dies ist ganz wörtlich zu verstehen:
 
Das bloße Auge sieht nichts. Umso verblüffender geraten die Bilder, wenn man in die Welt des Kleinen hineinzoomt. Einige mittlerweile fast berühmt gewordene Bilder aus dem Rasterelektronenmikroskop zeigen Ameisen, die Chips in ihren Mäulern tragen oder Minizahnräder auf ihren Füßen balancieren. Bei weiterer Vergrößerung taugen Ameisen nicht mehr als vergleichende Statisten. Da konkurrieren feinste Härchen am Facettenauge einer Biene mit der Stärke von Leiterbahnen zwischen elektronischen Bauelementen. Da »verirren« sich dann Blütenpollen auf die Chips, zum Vergleich der biologischen mit der technologischen Filigranstruktur. Während der Größenvergleich mit bekannten biologischen Strukturen bei zunehmender Vergrößerung schwieriger wird, blicken die Mikroskope immer tiefer in die technologischen Mikrowelten, entdecken Architekturen und Wegenetze im Silicium, lösen Gräben und Aufwerfungen, Stufen und Kanten auf.
 
Solche mit hoher technologischer Kunst fabrizierten Mikrostrukturen sind natürlich Mittel zum Zweck. Die mikroelektronischen Werkzeuge kennzeichnen heute unser Zeitalter. Der Miniaturisierungsgrad liegt bereits jenseits unserer Alltagsvorstellung und ist auf dem besten Wege, auch die Vorstellungskraft der Experten hinter sich zu lassen. Denn die Mikroelektronik, die ihren Namen vom Mikrometer, also Tausendstel Millimeter, entlehnt, wird in den kommenden Jahrzehnten unweigerlich in eine Nanoelektronik übergehen. Sobald aber Größen von Millionstel Millimeter (dafür steht »nano«) ins Spiel kommen, hilft auch das Elektronenmikroskop kaum noch der Vorstellung.
 
Die Assoziation mit jenem Reisenden, der Anfang des 18. Jahrhunderts im Land der Zwerge landete, drängt sich förmlich auf. Doch während Lemuel Gulliver ein Gestrandeter in einem Zwergenland ist, bauen wir uns unser technologisches Liliput selbst — mit filigranen Strukturen auf Speicherchips und Mikroprozessoren. Seit im Jahr 1965 Gordon Moore, einer der Gründer der Firma Intel, prognostiziert hat, dass sich die Leistung industriell gefertigter Mikrochips alle 18 Monate verdoppeln würde, hat die technologische Realität diese Prognose erfüllt und ihr dadurch den Charakter einer Gesetzmäßigkeit, des »Moore'schen Gesetzes« gegeben. Diese Entwicklung wurde durch die fortlaufende Miniaturisierung der Bauteile möglich. Passte Mitte der Siebzigerjahre auf einen Speicherchip die Datenmenge einer Schreibmaschinenseite (mit 2000 Anschlägen), so drängeln sich heute — auf einem nur leicht größeren Chip — ganze 16 000 Seiten, drei Jahre Entwicklungszeit weiter werden es 64 000 Seiten sein. Da die Bits immer kleiner werden, passen immer mehr Daten auf die »Schreibfläche« der Speicherchips. Die Strukturgröße der elektronischen Bauelemente auf dem Chip nimmt exponentiell ab: Die charakteristische Größe der Steuertransistoren, welche die Bits auf dem Chip einschreiben und löschen, fiel im Lauf der Jahre von mehreren auf einige Zehntel Mikrometer.
 
Doch das Moore'sche Gesetz hat — zumindest auf dem bisher eingeschlagenen Weg — Grenzen. Allein die Physik sorgt dafür, dass eine »naive« Miniaturisierung irgendwann misslingt: Werden die Bauelemente immer kleiner, dann können die Elektronen, die durch die Leiterbahnen flitzen und Transistorschalter umlegen oder sich in Grabenzellen sammeln, um ein Bit zu definieren, nicht mehr als kleine, »klassische« Billardkugeln gedacht werden. Je enger die Bauelemente des Chips die Elektronen einzwängen, umso stärker tritt ihre quantenmechanische Natur zutage, die etwa dazu führt, dass die Elektronen sich nicht mehr »einsperren« lassen — sie durchtunneln einfach die isolierenden Käfigwände, wenn diese nur dünn genug geworden sind. Die Folge: Die Bauelemente erfüllen nicht mehr die Funktion, für die sie konstruiert wurden. Dennoch muss die fortschreitende Miniaturisierung nicht in eine technologische Sackgasse münden. Vielmehr ist es jetzt die Aufgabe, völlig neue Bauelementkonzepte zu ersinnen, die ihre Funktion gerade auf solchen Quanteneffekten begründen. Bereits heute wird in den Laboratorien, um ein Beispiel zu nennen, mit Quantendrähten und Quantenpunkten auf den Chips experimentiert. Mit den kleinsten dieser Strukturen lassen sich einzelne Elektronen zählen: Erst wenn ein Elektron aus dem Quantenpunkt herausgetunnelt ist, ist wieder »Platz« für ein neues. Gelingt es, diese Tunnelprozesse zu steuern, so könnten diese Quantenpunkte die kleinsten denkbaren Informationsspeicher werden. Statt einiger Hunderttausend Elektronen, die gegenwärtig ein Bit »formen«, könnte in der Nanozukunft der Elektronik ein einzelnes Elektron ein Bit definieren.
 
Die Daten- oder Signalverarbeitung auf den Chips ist jedoch nicht der einzige Bereich, in dem Miniaturisieren zum Erfolgsrezept gehört. Vielmehr kann sie als Mittelglied in der Handlungskette »Information gewinnen« — »Information verarbeiten« — »Information umsetzen« verstanden werden. Das erste Glied in dieser Kette umfasst alle sensorischen Aufgaben und entspräche — in einem anthropomorphen Bild — unseren Sinnesorganen. Diese leiten ihre Informationen (vorgefiltert) an die Datenschaltzentrale, das Gehirn, weiter, das daraus ein »Gesamtbild« zusammensetzt, Schlüsse zieht und Handlungsanweisungen etwa an die Gliedmaßen weitergibt. Die Bewegungen der Gliedmaßen entsprechen in diesem Bild dann der Aufgabe, die Information umzusetzen — sie erfüllen die aktorischen Funktionen. Was bei jedem Lebewesen evolutionär als Einheit und somit scheinbar mühelos funktioniert, ist ein anspruchsvolles Vorbild für die technische Umsetzung. Nichts weniger hat sich jedoch die Mikrosystemtechnik vorgenommen.
 
Mikrosysteme können, so das Fernziel, »intelligente« Werkzeuge für den Menschen in nahezu allen Lebenslagen werden, sei es in der Verkehrs- und Sicherheitstechnik, in der Umwelt- und Verfahrenstechnik, in der Kommunikationstechnik oder der Medizin. Betrachten wir das Beispiel Medizin: Nicht jede Operation verlangt den großen Schnitt. In vielen Situationen könnte der Mediziner »minimal« in den menschlichen Körper eingreifen. Sowohl in der medizinischen Diagnostik als auch in der Therapie genügt häufig eine kleine Körperöffnung, in die ein dünner, biegsamer Schlauch eingeführt wird: das Endoskop. Daran befindet sich alles, was der Chirurg benötigt, etwa eine Videokamera, ein Skalpell, eine Absaugvorrichtung. Die Fortschritte auf diesem Gebiet der minimal invasiven Chirurgie gehen Hand in Hand mit der Miniaturisierung der Instrumente. Die Mikrosystemtechnik beinhaltet daher auch, möglichst kleine mechanische Bauteile zu konstruieren, deren Bewegungsraum der Mikrokosmos ist.
 
Zur Mechanik »en miniature« muss jetzt noch die Sensorik kommen. Mit Sensoren (lateinisch: sentire = wahrnehmen) gibt der Mensch seinen Maschinen Augen, Ohren und andere »Sinnesorgane«. Über Sensoren kommt — abstrakt gesprochen — Information von »außen nach innen«. Sensoren sind die »Fenster zur Welt«. Der Belichtungsmesser in einer Kamera kann hier ebenso als Beispiel dienen wie der Beschleunigungssensor zur Steuerung des Airbags in einem Kraftfahrzeug. Solche Sensorsysteme können ihrerseits auf mechanischen Komponenten beruhen, deren Eigenschaften sich beispielsweise mit dem Druck oder der Temperatur ändern, wenn eben diese Größen registriert werden sollen. Oder die Sensorik macht Anleihen bei der Biologie, indem Biosensoren die Siliciumwelt der Chips mit unterschiedlichsten biologischen Molekülen verknüpfen: Solche Sensoren sind in der Lage, hoch empfindlich und selektiv solche Substanzen in der Umwelt zu registrieren, welche an die jeweiligen biologischen Moleküle auf der Oberfläche des Sensors von Natur aus leicht »andocken« können. Die Sensoren nutzen so die natürlichen Schlüssel-Schloss-Beziehungen der molekularen Welt aus.
 
Miniaturisierung ist ein Leitgedanke moderner Technologie, sowohl bei der Elektronik als auch bei der Sensorik. Entweder werden bekannte »Werkzeuge« im wahrsten Sinne des Wortes verfeinert, oder neue Werkzeuge mit neuen Funktionen werden geschaffen. Das kommende Jahrhundert wird mit seinen technologischen Wurzeln tief in den Mikrokosmos hineingreifen.
 
 Die Verantwortung der Schlüsselkinder
 
Dieser Kurzbesuch in einigen wissenschaftlichen Werkstätten zeigt, dass die Schlüsseltechnologien von morgen heute bereits als weichgezeichnetes Bild erahnt werden. Bevor eine Schlüsseltechnologie von Technikern und Ingenieuren zu einer möglichen »Passform« entwickelt wird, liegt ihr Rohling in der Wissenschaft, in der Grundlagenforschung verborgen, wie am Beispiel des Lasers deutlich wird: Als Albert Einstein im Jahr 1916 seine Vorstellungen veröffentlichte, wie Atome und Licht miteinander reagieren, ahnte er nicht im Entferntesten, dass seine Theorie Jahrzehnte später in ein technologisches Produkt münden würde, das heute ein alltäglicher Gebrauchsgegenstand ist, der sich etwa in jedem CD-Spieler findet. In den ersten Jahrzehnten des 20. Jahrhunderts entstand darüber hinaus viel mehr. Die Physiker rangen sich (in einem langen Prozess) zu der Erkenntnis durch, dass in der Mikrowelt der Atome andere Gesetze herrschen, als unser Alltagsverstand glaubt. Die Quantenmechanik nagte am klassischen Weltbild. Ist sie damit eine esoterische Theorie ohne Bedeutung für die Allgemeinheit? Ein Blick drei, vier Generationen weiter: Die Konsequenzen der Quantenmechanik bestimmen das Bruttosozialprodukt unserer heutigen Wirtschaft. Ohne die Erkenntnisse der Quantenmechanik blieben fast alle elektronisch gesteuerten Maschinen stehen, einschließlich Flugzeug, Eisenbahn und Auto, unsere heutigen Kommunikationstechnologien gäbe es nicht, »Computer« und »Multimedia« waren unbekannte Begriffe. Abschätzungen besagen, dass allein im Kommunikationsbereich drei Viertel des erwirtschafteten Bruttosozialprodukts auf Resultaten der Quantenmechanik basieren.
 
Wer Schlüsseltechnologien will, muss auch in die Grundlagenforschung investieren. Das ist einer der Schlüsse, die wir aus der Erfahrung ziehen müssen. Wie gesehen, ist jedoch kaum zu überblicken, welchen Nutzen eine wissenschaftliche Erkenntnis einmal haben wird. Der Motor der Grundlagenforschung ist die Neugier der Wissenschaftler. Anwendungen zeigen sich zumeist erst in späten Stadien der Forschung. Auch dies muss eine Gesellschaft akzeptieren, die auf technologische Entwicklungen und, daraus resultierend, auf wirtschaftlichen Gewinn hofft. Von der Politik und der Gesellschaft ist Weitsicht gefordert. Um es mit den Worten des ehemaligen Bundespräsidenten Richard von Weizsäcker zu sagen: »Ohne die Lyrik der Grundlagenforschung wird es schwerlich die Prosa der technologischen Anwendungen geben.«
 
Bedeutet dies für die Öffentlichkeit, dass sie ahnungs- und kommentarlos einen Teil ihrer Steuergelder (denn Grundlagenforschung ist weitgehend staatlich geförderte Forschung) in eine schwarze Kiste stecken muss, ohne zu wissen, ob daraus in Zukunft vielleicht farbenfrohe technologische Papageien schlüpfen oder aber schwarze Witwen hervorkriechen werden? Das bedeutet es freilich nicht. Wissenschaft ist öffentlich, auch wenn das zunächst einmal nur im internen Wissenschaftsbetrieb bedeutsam ist. Aber vor allem: Die Wissenschaft muss sich öffentlich machen, muss ihre Ergebnisse verständlich nach außen tragen, denn — in leichter Abwandlung zu Friedrich Dürrenmatt: »Die Wissenschaft geht die Wissenschaftler an, ihre Auswirkungen alle Menschen.«
 
Und so könnte es idealtypisch aussehen: Wissenschaftliche Trends wären einer breiten Öffentlichkeit ebenso bekannt wie weltpolitische Entwicklungen oder die Sportresultate vom letzten Wochenende. In großen gesellschaftlichen Diskursen würden sich die Ziele herauskristallisieren, welche die Gesellschaft anpeilt — die großen technologischen Herausforderungen wären hier eingeschlossen. In der öffentlichen Debatte würden die Möglichkeiten der Gen- und Biotechnologie und die Energieoptionen einer exponentiell wachsenden Menschheit ebenso diskutiert wie Lösungsansätze zur Umweltproblematik und die Auswirkungen einer sich fortentwickelnden Informationsgesellschaft. Die wissenschaftlich-technische Entwicklung erhielte einen ihrer Bedeutung gerechten Stellenwert. Und darüber hinaus: Die große Kluft zwischen dem technologisch Machbaren und dem menschlich Handhabbaren könnte etwas kleiner werden. Denn die biologisch-geistige Entwicklung des Menschen ist nicht automatisch mit den Schüben der Technologie synchronisiert.
 
»Letztlich ist es der Selbstlauf der Technik im Hochgeschwindigkeitssystem weltmarktorientierter Modernisierung, der das absurde Theater von Nein- und Jasagern heraufbeschwört zu Entwicklungen, deren Folgen niemand kennt und die sowieso ihren Lauf zu nehmen scheinen. Wir müssen heraus aus dieser falschen Alternative.« So formuliert es der Soziologe Ulrich Beck, um zu verdeutlichen, dass eine Technikabhängigkeit (die wir haben) Hand in Hand gehen muss mit einer Technikkritik (die wir in neuer Form brauchen). Sein scheinbar paradoxer Schluss: Erst wenn wir der Technik ein gewisses Maß an Freiheit, vor allem an Denkfreiheit geben, können wir uns unsererseits von unserer Technikabhängigkeit frei machen. Denn die gegenwärtigen Abhängigkeiten von politischen, wirtschaftlichen oder militärischen Interessen setzen ein Normensystem, in dem Zukunft nicht auf Dauer zu gewinnen ist. »Das Schicksal der Folgenblindheit« einzelner Techniksysteme könnte so gebrochen werden. Noch einmal Ulrich Beck: »Die Befreiung der Technik vom Joch der Ökonomie müsste einhergehen mit der Organisation ihrer Nutzung als einem autonomen Prozess, in dem Ethiker, Politiker, die Öffentlichkeit, Laien und in diesem Konzept der Stimmen selbstverständlich auch Techniker ihre Rolle spielen.«
 
Wir müssen uns kurzum gemeinsam darüber klar werden, wohin wir wollen und wie es dort dann ungefähr aussehen soll. Dies gebietet die Verantwortung uns und den Nachkommenden gegenüber. Wir müssen die auf uns zurasenden Probleme lösen, die mit Etiketten wie Bevölkerungswachstum, Umwelt, Energie und Information nur unzureichend beschrieben sind. Mit unseren begrenzten Möglichkeiten sitzen wir dabei im Raum der Gegenwart. Die Türen hinter uns sind längst zugeschlagen. Mit unserem Wissen und Know-how feilen wir an den Schlüsseln für die Türen vor uns. Wie wir hier arbeiten, wird sich in der technischen und sozialen Kultur von morgen wieder finden. Weniger Verantwortung werden wir nicht mehr bekommen.
 
Dr. Jens Simon, Braunschweig und Prof. Dr. Dr. h.c. Joachim Treusch, Jülich

Universal-Lexikon. 2012.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Schlüsseltechnologien — Schlüsseltechnologi|en,   industriell verwertbare technische Fähigkeiten und Möglichkeiten, oft auf der Grundlage neuer wissenschaftlicher Erkenntnisse, sowie innovative Produkte und Fertigungsmethoden, die eine Schlüsselstellung in einer… …   Universal-Lexikon